Генеративните модели на AI са квалифицирани в изкуството на глупостите
лъжите не са най -големият зложелател на истината, съгласно философа Хари Франкфурт. Глупостите са по -лоши.
Както той изясни през (1986), измамник и касиер на истината играят една и съща игра, единствено от противоположните страни. Всеки дава отговор на обстоятелствата, защото ги схваща и или приема или отхвърля престижа на истината. Но един нелепост пренебрегва напълно тези претенции. " Той не отхвърля престижа на истината, както прави лъжецът, и се опълчи на себе си. Той въобще не му обръща внимание. Такъв човек желае да убеди другите, без значение от обстоятелствата.
За страдание Франкфурт умря през 2023 година, единствено няколко месеца след освобождението на Chatgpt. Но четенето на неговото есе в ерата на генеративния изкуствен интелект провокира доста познато знание. В няколко връзки есето на Франкфурт добре разказва продукцията на модели с огромен език с задействан AI. Те не се занимават с истината, тъй като нямат визия за нея. Те работят посредством статистическа корелация, а не емпирично наблюдаване.
„ Най -голямата им мощ, само че и най -голямата им заплаха, е тяхната дарба да звучат авторитетно по съвсем всяка тематика, без значение от фактическата акуратност. С други думи, тяхната суперсила е тяхната свръхчовешка дарба за нелепости “, написаха Карл Бергстром и Йевин Уест. Двамата професори на Университета на Вашингтон организират онлайн курс-модерни оракули или нелепости машини? - Проверка на тези модели. Други са преименували продукцията на машините като ботшит.
Една от най-известните и неспокойни, само че от време на време забавно креативен, чертите на LLMS са тяхната „ илюзия “ на факти-или просто основаване на неща. Някои откриватели настояват, че това е присъща характерност на вероятностните модели, а не неточност, която може да бъде отстранена. Но фирмите на AI се пробват да решат този проблем, като усъвършенстват качеството на данните, уточняват своите модели и построяват системи за инспекция и инспекция на обстоятелствата.
Изглежда, че те имат някакъв път, само че като се има поради, че този месец е юрист за антропик, споделил на калифорнийския съд, че тяхната адвокатска адвокатска фирма сама по себе си несъзнателно е показала погрешно цитиране, халюцинирано от Клоуд на компанията AI. Тъй като чатботът на Гугъл флагове на потребителите: „ Близнаците могат да вършат неточности, в това число за хората, тъй че да го ревизират два пъти. “ Това не спря Гугъл от тази седмица да разгърне „ AI режим “ на всичките му съществени услуги в Съединени американски щати.
Начините, по които тези компании се пробват да подобрят своите модели, в това число подсилване на образованието от човешка противоположна връзка, самият рискува да вкара пристрастия, изкривявания и недекларирани оценки на цената. Както FT сподели, AI чатботите от Openai, Anthropic, Гугъл, Meta, XAI и Deepseek разказват качествата на основните изпълнителни шефове на личните си компании и тези на противниците доста друго. Грок на Елон Мъск също разпространява мемовете за „ бял геноцид “ в Южна Африка в отговор на напълно несвързани подкани. Xai съобщи, че е поправил казуса, който упрекна в „ неоторизирана трансформация “.
Такива модели основават нова, още по -лоша категория на евентуалната щета - или „ небрежна тирада “, съгласно Сандра Уахтер, Брент Мителщат и Крис Ръсел, в документ от Оксфордския интернет институт. Според тях небрежната тирада може да аргументи нематериална, дълготрайна и кумулативна щета. Това е като „ невидими нелепости “, което прави обществото по -тъпо, споделя ми Уахтер.
най-малко с политик или човек по продажбите нормално можем да разберем мотивацията им. Но чатботите нямат активност и са усъвършенствани за достоверност и ангажираност, а не за правота. Те ще измислят обстоятелства без никаква цел. Те могат да замърсяват базата от познания на човечеството по непостижими способи.
Интригуващият въпрос е дали AI модели могат да бъдат проектирани за по -висока правота. Ще има ли търсене на пазара за тях? Или разработчиците на модели би трябвало да бъдат принудени да съблюдават по -високите стандарти за истина, както се ползват да вземем за пример за рекламодатели, юристи и лекари? Wachter допуска, че създаването на по -истински модели ще отнеме време, пари и запаси, които актуалните итерации са предопределени да спестят. „ Това е като да искаш кола да бъде аероплан. Можете да избутате кола от канара, само че няма да се опълчи на гравитацията “, споделя тя.
Всичко казано, генеративните модели на ИИ към момента могат да бъдат потребни и скъпи. Много доходоносни бизнес - и политически - са построени на нелепости. Подходящо употребен, генеративен AI може да бъде разпрострат за безчет случаи на потребление на бизнеса. Но това е заблудено и рисково, да се сбърка тези модели за машини за истината.